Loading...
机构名称:
¥ 2.0

摘要。扩散模型以其具有巨大的新颖和高质量样本的能力而闻名,最近由于其数据记忆行为而引起了人们的关注,这带来了隐私风险。最新的减轻内存方法仅针对跨模式生成任务中的文本模式问题,或者使用数据增强策略。在本文中,我们从视觉模态的角度提出了一个针对扩散模型的新型培训框架,这对于缓解记忆更为通用和基本。为了促进扩散模型参数中的“获取”存储信息,我们通过将数据分成多个碎片来训练多个模型并间歇地汇总了这些模型参数,提出了一种迭代集合训练策略。此外,对损失的实际分析表明,易于记忆的图像的训练损失显然较低。因此,我们提出了一种抗差异控制方法,以从当前的迷你批次中排除损失值较低的样品,以避免记忆。进行了四个数据集的广泛实验和分析,以说明我们方法的有效性,结果表明我们的方法成功地降低了记忆能力,同时甚至略微改善了性能。此外,为了节省计算成本,我们成功地应用了我们的方法,以有限的时期来微调训练良好的扩散模型,以证明我们方法的适用性。代码可在https://github.com/liuxiao-guan/iet_agc中找到。

arxiv:2407.15328v2 [CS.CV] 2024年7月31日

arxiv:2407.15328v2 [CS.CV] 2024年7月31日PDF文件第1页

arxiv:2407.15328v2 [CS.CV] 2024年7月31日PDF文件第2页

arxiv:2407.15328v2 [CS.CV] 2024年7月31日PDF文件第3页

arxiv:2407.15328v2 [CS.CV] 2024年7月31日PDF文件第4页

arxiv:2407.15328v2 [CS.CV] 2024年7月31日PDF文件第5页

相关文件推荐

2024 年
¥1.0